一線搜查|AI影片難分真與假 語音視像全部冇難度 專家要分辨都有困難

一線搜查|AI影片難分真與假 語音視像全部冇難度 專家要分辨都有困難

一線搜查|AI影片難分真與假 語音視像全部冇難度 專家要分辨都有困難一線搜查|AI影片難分真與假 語音視像全部冇難度 專家要分辨都有困難

AI騙案主要利用語音克隆、深偽技術以及聊天機器人等技術欺騙受害人,語音克隆是比較常見的詐騙手段,此外利用名人形象製作AI影片亦十分常見。 1分鐘即可製作以假亂真影片 科技公司創辦人Kevin指出,深偽技術(Deepfake)發展一日千里,1年前若想製作一部以假亂真的影片,可能要花費數小時訓練,收集十幾張不同的相片,還有是1至2小時的聲音檔案,「現在花費時間可能1分鐘,1張照片,10秒的聲音即可做到。」 簡單素材即可生成 Kevin表示,「Deepfake」源自於「Deep Learning」(深度學習)和「Fake」(偽造)組合,簡單來說就是深度學習再加上造假,只需要簡單素材,例如面部表情特徵或是聲紋特徵,即可重新生成一個假的人像或是聲音。 分辨真人和AI有方法 對於如何分辨真人和AI,Kevin表示可以找到破綻,例如AI換臉會將目標對象的五官套進原本臨時演員的五官,「通常最明顯的破綻是膚色上的偏差,可能本身上半部分臉部偏黑,但下半邊偏白」;真人的頸部有紋理,但AI則異常光滑,有些失真;嘴型未必很匹配,有重影或是殘影出現,說話時嘴唇跳動比較奇怪等。 利用名人形象或幹犯罪行 亦有騙徒利用名人形象製作AI影片,律師梁永鏗表示,聲線未必很容易取得版權,用聲線說笑話又不是賺錢又不是抄襲,未必是犯法的事,但可以用誹謗罪告人,「你拿我的聲音去說這些粗鄙的話,可能影響我的名聲。」但如果用照片賺錢,可能違反《版權條例》或《個人資料(私隱)條例》,幹犯罪行。 更多詳情請到網站收看:HOY TV《一線搜查》

分享
相關新聞